50 - Partielle Differenzierbarkeit [ID:34390]
50 von 289 angezeigt

Wir haben das Kapitel Integration im letzten Video abgeschlossen und widmen uns jetzt einem

vollkommen anderen Gebiet innerhalb der Analysis, nämlich der Differenziation von Funktionen in

mehreren veränderlichen beziehungsweise mit mehreren Variablen. Bisher ist es ja so,

aus dem letzten Semester haben Sie den Begriff der Differenzierbarkeit einer Funktion kennengelernt

für Funktionen, die aus den reellen Zahlen in die reellen Zahlen abbilden. Wir wollen dieses ganze

Konzept jetzt auf einen höherdimensionalen Raum, den er auch erweitern, sodass der Definitionsbereich

nun mehrere Variablen umfassen kann. Und da wollen wir verstehen, was heißt es eigentlich,

wenn eine Funktion differenzierbar ist, was sind die grundlegenden Definitionen und Begriffe und

wie können wir Differenzierbarkeit für solche Funktionen charakterisieren. Das wird ein sehr

wichtiges Grundlagenkapitel sein für viele weitere aufbauende Vorlesungen, sei es in der Physik oder

im Bereich Data Science. Und da nun spielt es eine entscheidende Rolle in der Numerik oder in der

mathematischen Modellierung, immer dann, wenn sie in höheren Dimensionen rechnen oder aber in der

Optimierung von Extremwertaufgaben. Was wir bisher gesehen haben, waren Funktionen der folgenden Form.

Das heißt, wir haben uns typischerweise angeschaut, eine Funktion f, die aus einer offenen Umgebung u

in die reellen Zahlen abbildet und u war typischerweise im letzten Semester immer eine

Teilmenge der reellen Zahlen. Was wir jetzt in diesen und den nächsten Videos machen werden,

ist, wir werden diese Teilmenge nicht mehr über r betrachten, sondern über r hoch n. Das heißt,

wir haben jetzt Funktionen, die genauso abbilden von u nach r. Jedoch werden wir jetzt sagen,

dass diese Teilmenge u in einem höherdimensionalen Raum liegt. Das heißt, typischerweise betrachten

wir n größer gleich zwei, um wirklich zu verstehen, wie Ableitungen in höherdimensionalen Räumen

aussehen. Und was wir auch noch machen werden, und das wird sozusagen das Ende dieses Kapitels sein,

wir werden das Ganze auch noch auf multivariate Funktionen erweitern. Das sind Funktionen,

deren Funktionswerte selber ganze Vektoren wieder bilden. Das heißt, was wir dann machen werden,

ist, wir bilden ab von einer offenen Teilmenge u jetzt in den r hoch m. Das heißt, das ist wieder

ein mehrdimensionaler Vektorraum und u selber ist auch wieder eine Teilmenge des r hoch n. Das heißt,

wir können jetzt n-dimensionale Vektoren auf m-dimensionale Vektoren abbilden und wollen

verstehen, was bedeutet Ableitung für solche Funktionen. Und auch hier typischerweise n und m

größer gleich zwei, ansonsten wäre es ja wieder trivial. Genau, das ist der Plan für dieses Kapitel

und wir fangen an mit dem schwächsten Ableitungsbegriff, den man in höheren Dimensionen

wählen kann und das ist der der partiellen Differenzierbarkeit. Wir werden später noch

andere Begriffe kennenlernen, die eine stärkere Differenzierbarkeit induzieren, aber wir gehen

jetzt mit der partiellen Differenzierbarkeit. Naja, und die Idee ist es bei der partiellen

Differenzierbarkeit, dass man sich irgendwie die Definition von Ableitung von eindimensionalen

Funktionen, die sie schon kennen, zunutze macht. Das heißt, wir werden hingehen und Funktionen

betrachten in mehreren veränderlichen und diese so einschränken, dass wir nur ein einziges Argument

verändern dürfen. Also die Idee ist es, Funktionen auch hier wieder f von u in die reellen Zahlen

so einzuschränken, dass wir den Begriff der Ableitung, Ableitung im eindimensionalen ausnutzen

können. Man schummelt sich das so ein bisschen zurecht, um einfach bekannte Strukturen wieder

auszunutzen. Wie sieht das Ganze aus? Das können wir mal konkretisieren. Das heißt, wenn wir

eine Funktion haben f, die in n Variablen ist, dann können wir Folgendes machen. Wir können uns

sagen, wir halten alle Argumente fest, bis auf ein gewisses Argument, zum Beispiel das Argument x i,

die i-Te-Koordinaten-Richtung. Und dann definieren wir uns eine Hilfsfunktion, die nennen wir f

Schlange. Die betrachten wir jetzt nur noch in einem Argument. Die geht nämlich jetzt von einer

Teilmenge von R auch wieder nach R, indem wir Folgendes machen. Also f Schlange geht von einer

Teilmenge von R nach R und wir erzeugen f Schlange aus unserer Funktion f in mehreren Veränderlichen

durch folgende Funktionsvorschrift. Wir sagen f Schlange von einer Variablen x i. Das definieren

wir uns einfach als die originale Funktion f, aber wir halten jetzt alle Koordinaten fest,

bis auf die i-Te, die uns dann interessiert. Also x i minus eins. Die werden jetzt festgewählt,

sind nicht mehr veränderlich. Und c ist die einzig freie Variable. Und dann geht es so weiter x i bis

x n. Das ist schon der ganze Trick, denn man sieht, man erhält dann eine eindimensionale Funktion. Und

Zugänglich über

Offener Zugang

Dauer

00:38:40 Min

Aufnahmedatum

2021-06-15

Hochgeladen am

2021-06-15 17:08:44

Sprache

de-DE

Einbetten
Wordpress FAU Plugin
iFrame
Teilen